約 1,538,395 件
https://w.atwiki.jp/genai_problem/pages/10.html
このページでは「画像生成AIは何が問題なのか?」をまとめています。 →具体的な被害事例集は当wiki内「画像生成AI 炎上・論争・被害事例まとめ」をご参照ください。 →生成系AI全般の問題点については当wiki内⇒「生成系AIが抱える問題まとめ【社会やクリエイティブへの悪影響】」をご覧ください。 + 編集者の方へ 自由に編集してください。箇条書き形式です。 新しい問題点を書く場所が分からない場合は、下部の「その他の問題」欄に加えてください。 このページの旧名称は「画像生成AIの問題点と被害事例」です。実内容に合わせてページ名を改名しました。 具体的な被害事例を詳しく説明する用途はページを分けました→画像生成AI 炎上・論争・被害事例まとめ 上記ページと一部内容が被っても構いません。 情報量が膨らんできたら必要に応じて個別ページ化を検討してください。 下の画像はSNS等にこのwikiのURLを貼り付けた際表示されるサムネイルとなることを想定して作った画像です。仮の画像ですので自由に差し替えて頂いて構いません。 【目次】 AI画像生成は何が問題なのか?専門家の見解 はじめに 経済的側面学習元への還元が皆無 生産速度による市場の埋め尽くし 企業によるダンピング 生産者減少に伴う産業の衰退 日本から海外への資産の流出 法律的側面現状に則さない現行の法律 アニメ・マンガ・ゲーム・映画など各メディアの版権キャラクターが出力されてしまう 児童ポルノ問題 剥ぎコラ・アイコラ問題 機械学習を用いた脅迫事件 新たな盗作の手段、新手のトレパクともいえるimg2img(i2i) 倫理的側面無断学習 生成物へのウォーターマークの映りこみ 生成物へのサインの映りこみ 学習元へのリスペクトの無さ フェイク画像による混乱 実在の人物を学習して偽の写真が作成された問題 AI画像を使ったなりすまし 人権面から見る問題 絵を描くことを生業や趣味にしている人、芸術文化の中にいる人への中傷や嫌がらせ 文化的側面文化の破壊 AI画像生成で大量に出力されることになった絵柄や塗り方の陳腐化 絵描きのAI利用とファンの反応 pixivをはじめイラスト投稿サイトなどの大半をAI生成画像が占めるように AI絵によって手描きさえも天秤にかけられてしまう その他の問題ローカル環境ツールが出回ってしまったことによる問題 イラスト業界の権利団体の乏しさに付け込んだマネタイズ 「AI」という名称がつけられていることに起因する、生成AIに対する人々の認知の散在性 AIデータセットから作品等を削除する際にオプトアウト制を採用する事の限界 海外デモ活動画像を使用したレッテル貼り 具体的な被害事例 i2iによる被害事例 DreamBooth、LoRAによる被害事例 AI画像生成は何が問題なのか? 専門家の見解 AIグラビア写真集の波紋 生成AIと著作権の関係は?悪用のリスクは? | NHK | WEB特集 | AI(人工知能) 早稲田大学法学学術院 上野達弘教授 「日本では、インターネットやSNS上にある膨大な画像や写真についてAIによる学習は自由に行えることになるが、AIを使って画像や写真を生成し、生成したものを販売するなどは著作権を侵害するリスクが生じてくることがあり注意が必要だ」 「今後、文章や画像だけではなく、アニメや映画などAIによる生成物は、ますます広がっていくことが予想される。生成されたものが著作権を侵害しているとして訴えられるような事例も出てくるかもしれない」 国立情報学研究所 越前功教授 「生成AIがどんな画像を学習しているか明らかにされておらず、ネット上の個人の写真が使われている可能性は十分にあります」 「最近では生成AIで、驚くほど高画質な特定の人物の画像を、容易につくれるようになってきました。実在する人物について、何十枚かの写真があれば作成者の望むままに本当かうそかわからない画像を作ることができるのです。これは、不適切なものも作れるということなので深刻です。一般の人でも効率的かつ、低コストでできるようになっています」 「技術が進展し、1年後にどのような世界になっているかわからないことを知ってもらい、リスクを理解してもらう必要があると思います。技術の発展を止めることはできないので、例えば偽画像を見抜くツールの開発といった技術的手段や、法律の整備、啓蒙活動など多角的に取り組んで行く必要があります」 アメリカ著作権局の元最高法務責任者Jon Baumgarten氏 Former Copyright Office GC Warns Against Blanket Assertions That AI Ingestion of Copyrighted Works ‘Is Fair Use’ (要約)コピー機の使用が盛んになった頃「フェアユース」と主張されたが、代表的な判例におけるフェアユースの徹底的な分析の結果、誤りであることが証明された。その司法判断は複写を萎縮させたり阻害したりしたわけではなく、むしろ複写を容易にし、知識へのアクセスを向上させ、著作者と著作権者に補償金を支払う、自発的な集団許諾の体制へと導いた。 現在のアメリカ著作権局長も第1回US-Asia国際著作権シンポジウム[人工知能と著作権法] – 早稲田大学知的財産法制研究所[RCLIP]で生成AIに否定的な見解を示したとTwitterでは記録されているが、公的な映像記録などは無い。 三大学術誌(Nature, Science, Cell)含む学術誌の対応 科学誌は論文の共著者としてChatGPTを認めない方針 | TEXAL Science誌の編集長であるHolden Thorp氏は、すべての論文の投稿は著者のオリジナル作品でなければならず、AIによって作られたコンテンツは盗作の一形態であると述べている。著者は、完全に開示し、Scienceが承認した場合のみ、このツールを使用することができる。ChatGPTのような大規模な言語モデルは、インターネットから収集した膨大な量のテキストで学習するため、学習データにある文章と非常に類似した文章を再生することができる。 「何年もの間、Science誌の著者は、『作品はオリジナルである』ことを証明するライセンスに署名してきました。Science誌にとって、“オリジナル”という言葉は、ChatGPTによって書かれた文章が受け入れられないことを示すのに十分なものなのです。結局のところ、ChatGPTからの盗作なのです。さらに、私たちの著者は、彼ら自身が論文の研究に対して責任があることを証明するのです」とThorp氏は述べている。 ChatGPTのようなツールは、文法的な間違いのないテキストを作成するが、AI自身はその内容を理解しているわけではなく、事実を取り違える傾向がある。虚偽の数字を含む見当違いな研究結果を引用することもあるが、人間を騙すには十分な説得力があるものも少なくない。学術的な文章は専門用語が多く、専門家でもChatGPTで書かれた偽の文章を本物だと信じてしまうことがあるのだ。このことは、既にMetaがリリースしたがすぐに公開停止に追い込まれた「科学的知識」AIモデルでも指摘されてされていたことだ。 科学者は、論文で結果をごまかしたいという誘惑に駆られ、あらゆる方法を駆使して偽の研究成果を発表しようとする。 153年の歴史を持つ科学誌の「Nature」がAIが生成した画像の掲載を禁止すると発表 GitHub(料理のレシピなども投稿されているが、主にITエンジニアがソースコードを公開しているサイト)利用者の「生成AI」の対応 【Infostand海外ITトピックス】GitHub Copilotに集団訴訟 AI訓練データで初 - クラウド Watch GitHubは訓練データの個々の詳細は公表していないが、GitHubリポジトリなどを含む公開されたコードで学習していると説明してきた。これらの多くはMIT License、GPL、Apache Licenseなどの一般的なオープンソースライセンスで提供されているものだ。それぞれのライセンスに従って作者名と著作権帰属の表示が必要で、利用や改変の際にも引き継いで明示する義務がある。 ところが、Copilotの出力には、それらが表示されておらず、このことがライセンス違反にあたるというのだ。 (中略) 元のコードから著作権表示を消すことを「オープンソース・ロンダリング」と呼ぶ者もいた。 (中略) 40年以上オープンソース運動にかかわってきたという原告のButterick氏は、開発者の立場からこれを、オープンソースの根本を揺るがす問題だと言う。 提訴後のThe Vergeのインタビューで同氏は「開発者はライセンスを信じてコードを公開しているのに、企業が尊重しないのならライセンスの意味がなくなる」と言い、「ライセンス表記なしでコードを利用させると、オープンソース運動そのものを殺してしまう」と語っている。また、コードに作者を明記することで仕事の獲得につなげている開発者の生活の道を奪うことになるとも述べている。 GitHub、法的論争が続く中、Copilotをビジネス向けにリリース Stack Overflow(ITエンジニア専門のQ Aサイト※)における「生成AI」の対応 大手AI企業に“訓練用データ”の利用料を請求、Q Aサイト「Stack Overflow」による計画の真意 | WIRED.jp Q&AサイトのStack Overflowが「AI投稿OK」に方針転換して物議、抗議のためモデレーターら600人以上が大規模ストライキに署名|au Webポータル経済・ITニュース ストライキを決行したモデレーターは(中略)「ユーザー生成コンテンツに見せかけたAI生成コンテンツを許すことは、やがてサイトの価値をゼロにまでおとしめることになると確信しています」と懸念を表明しています。 (中略) モデレーターらは公開書簡に「適切なルートを通じて変化をもたらそうとした私たちの努力と危惧は、あらゆる場面で無視されてきました。今、私たちは最後の手段として、10年以上にわたりボランティアの努力を注ぎ込んできたプラットフォームへの献身を打ち切ります」と記して、ストライキの決行を宣言しました。 ※質問にあたって「事前に似たような質問が無いか調べたか、自分でどのような事を試したか具体的に書くこと」等の条件を満たすことが求められており、質問・回答が他のユーザーから投票され、良い評価を得ると自分も投票などの権限が増えていくが、悪い評価を得ると権限が剥奪される。 はじめに 画像生成AIの問題は①「データセットにより引き起こされる問題」と、②「画像生成AIそのものが持つ性質が引き起こす問題」の2点に大別される。 (上記はクリエイティブ方面の問題点であるが、他にも社会的問題としてディープフェイク等により情報の信頼性を揺るがしかねないことも挙げられる。) ①「データセットにより引き起こされる問題」 学習元への経済的還元がない。 学習元が作った成果物によって、学習元の市場と競合する存在になりえる。(つまり、自身の成果物によって、自身が市場から淘汰される可能性がある。) 学習元の模倣による類似品が容易に製作できる。 ②「画像生成AIそのものが持つ性質が引き起こす問題」 生成スピードが早く、類似品を出すことが容易なため、表現の陳腐化も早い。 生成スピードが早いために、プラットフォームへの投稿速度、量ともに尋常ではない。 i2iやControlNetをはじめとする技術によって、盗作が容易であるとともに証明する事が困難。 ①「データセットにより引き起こされる問題」の原因は、現在流通している画像生成AI(StableDiffusionやMidjorney、Nijijorney)のデータセットには著作権で保護された画像や、医療記録、家族写真、戦争の写真等が含まれており、画像の権利者の許諾を得ていないことから発生している。(詳細は⇒主要なAI画像生成サービス) さらに、抑止力が働かない法律であることと、画像生成AIサービスに悪用防止策がなされていないこと、技術がオープンソースで配布されたことによって一層加速し、歯止めがきかない状態となっている。 現在使用されている画像生成AIの多くは拡散モデルと言われいるが、この技術自体に問題があるわけではない。 権利者に無許諾で収集したデータセットを使用して作られたサービスに問題があるのだ。 (さらに言えば、そのサービスが学習元と競合しかねないことが問題である。) なお、HuggingFaceやCivitaiで公開されているモデルのほとんどがStableDiffusionベースであると言っても過言ではなく、どのモデルを使用しても権利的にグレーであることは避けられないのが現状である。それどころか、共有サイトで公開されているモデルは勝手に個人が権利者に無許諾でファインチューニングしている場合がほとんどである為、むしろ権利侵害リスクは高いと言える。 特定作家の絵柄の集中学習モデルを使用することは問題があると認識する人は多いと思われるが、一方で下記2点は使用にあたり問題ないと誤解されることが多い。 ・自身が権利者である画像をファインチューニングする場合 ・自身が権利者である画像をi2iする場合 しかし、上記2点はいずれも、もともとのモデルであるStableDiffusionのデータセットの影響は避けられない為、権利的にグレーであることに変わりはない。 画像生成AIについて、国内外でも多くの抗議が発生しており、海外では訴訟にまで至っている。(詳細は⇒各国の生成系AIへの対応・規制まとめ) 法律やガイドラインもまだ定まっておらず、現在の状況で使用するリスクは高いことを認識する必要がある。 ②「画像生成AIそのものが持つ性質が引き起こす問題」については、データセットの問題が解決された後にも残留するものであり、別途解決方法を模索する必要がある。 最後に、社会的問題としてディープフェイク等により情報の信頼性を揺るがしかねないことも問題として挙げられる。 これまでも画像編集ソフトでもディープフェイクは製作可能であったが、画像生成AIは画像編集ソフトに比べ非常に容易かつ短時間、高品質で製作可能であることが大きな違いである。 誰でも被害者になりうる問題であり、これまでの情報社会の基盤そのものが覆る可能性がある。 上記を踏まえた上で、下記に詳細を列挙する。 経済的側面 学習元への還元が皆無 現行の画像生成AIは学習元に依存しているにも関わらず、学習元へ還元する方法がない。 オープンソースでばらまかれている以上、そもそも還元自体が不可能な構造になっている。 学習元は一方的かつ無断で成果物を収奪され、他者がそれにフリーライドできる状態になっている。 生産速度による市場の埋め尽くし 短期間に大量にコピーされ拡散されることで陳腐化が急速に進む(飽きられる)。学習元の絵描きの与り知らないところでその絵描きの成果物の経済的価値が損なわれる 議会の席では「AIによる生成が出版の世界にまで及んだら国立国会図書館の収容量が足りなくなる」という旨の声も見られた イラストSNSサイトの新着がAIで埋まってしまうため、手描きのイラストが見られる可能性が低くなる 販売サイトも新着作品がAIで埋まり手描きの作品が見られる可能性が低くなる amazonが展開する「Kindle Unlimited」では実写系AIのグラビア写真集が大量に登録される FANZAやDL.siteは大量のAI出力による販売物の審査や対応に追われることになり、AI生成作品の投稿は一か月に一度だけと定められた BOOTHで「AIで生成した背景素材107枚無料配布」があり物議が醸された。手描きの背景アーティストが市場破壊を嘆いた 企業によるダンピング 中国のゲーム会社ではイラストレーターの仕事は70%減少し、報酬は10分の1に引き下げられた 生産者減少に伴う産業の衰退 SNSでは、AIの登場により絵を描くモチベーションが無くなったと嘆くイラストレーターが続出した 絵を練習していた初心者がAIを利用するようになり、絵の成長を妨げてしまう。または完全に絵を描かなくなってしまう 供給過多により需要が消失し、消費が追いつかない可能性 AI生成物を拒否する消費者層と受け入れる消費者層による意識の分断 どれも似たような絵になる、視線誘導がされていない、生成物の加工が雑、などと言ったAI利用が原因の品質の低下 AIの学習は人間のイラストに依存したものであり、イラストレーターの仕事が減るのに比例してAIの発展性も閉ざされる可能性 → 学習素材の不足 日本から海外への資産の流出 日本のコンテンツがAIに学習され、そのAIによって国外のAI開発会社が収益を得る 学習元である日本のクリエイターには何ら還元されない、そのようなビジネスモデルが確立されていない クリエイターの絵柄を無断学習したモデルをコミッションサイトで販売する 無断学習したモデルで生成した絵を、自身の作品として販売する 法律的側面 現状に則さない現行の法律 海外では規制されていようが、現行の法律では日本におけるAIへの学習が合法とされているため日本のコンテンツの海外流出に歯止めが効かない 但し書きを無視して合法を謳い、無断学習が横行している 既存の法律で対応するという政治家の言葉もあるが、時間あたり数百数千の画像が生成可能なため、著作権者がそれらに対応することは困難 アニメ・マンガ・ゲーム・映画など各メディアの版権キャラクターが出力されてしまう プロンプトで直接キャラクター名を指定していないのに、版権キャラクターと瓜二つの容姿の生成物が出てくることがある ファンアート規模の大きい「ウマ娘」や「VTuber」などが顕著であるが、それ以外の作品のキャラクターも出てくる AI生成サービスの中には商用利用可能と表記されているものもある 公式イラストとの重大な類似性が認められた二次創作に関しては、版権元から厳しい処罰を課されるパターンもある 版権キャラであると知らずに生成物を使用し、著作権侵害を引き起こしてしまう可能性。その場合「知らなかったこと」の証明が困難 児童ポルノ問題 実在児童の写真を学習元にした可能性がある児童ポルノ生成 pixivでは海外の業者と推定されるアカウントがAI製の児童ポルノ画像を大量に投稿、pixivは対応に追われることになった 身近な子供を対象にAI製児童ポルノを製造し、商売に利用する可能性(姪の写真を追加学習したいという者もいた) 剥ぎコラ・アイコラ問題 Instagramの女子高生の制服姿の写真を水着の妊婦姿に加工する事例があった AI画像生成ツールによる写真加工や学習を恐れ、園児・学生の入学写真などをSNSに投稿しないよう注意喚起もされている 韓国では中学生が同年代の写真でディープフェイクを生成。その画像でコミッションを受けようとして、懲役刑を受けた事例がある 機械学習を用いた脅迫事件 韓国では、後輩女性のわいせつ画像をAIで合成し「奴隷になれば削除してやる」と脅迫を起こす事件が発生した AIに不満を漏らした中国のイラストレーターが勝手に作品を学習され、見つけ出して暴行してやると脅迫された 新たな盗作の手段、新手のトレパクともいえるimg2img(i2i) i2iやLoRA被害が後を絶えない 従来のトレパク(絵を上からトレースしてパクる)と違い、手で描いてすらいないためより悪質 プラットフォームが「依拠性が認められない」と独自の判断を下し、i2iトレパク画像の削除を拒否した事例が存在 倫理的側面 無断学習 画像生成AIは大量の画像を学習・分析して設計されている。その中にはプライバシー性の高い画像や権利者の所持する画像もある。 家族写真や子どもの写真、医療写真なども含むデータセット 画像生成AIの殆どのベースとなっているStable Diffusionは、LAION-5Bというデータセットを学習している。このデータセットの58億5000万点の画像のうち、数十億枚の著作権で保護された画像が含まれているとされる。もともとはAI研究目的に、主にネット上からクロールされた画像群である。(米国でのStabilityAI/Midjourney/DeviantArtを相手取った訴訟の要因となっている) 国内・海外ともに、世界中のアーティストの作品が無断で学習されている キャラクターコンテンツ団体が権利を持つ作品の画像・有名キャラクターたちの姿も無断で学習されている 無断転載サイト(pixivの無断転載サイト:Danbooruなど)のコンテンツによるデータセット NovelAIは公式にDanbooruコンテンツで学習していることを明言している →https //twitter.com/novelaiofficial/status/1573844864390791169 生成物へのウォーターマークの映りこみ ウォーターマーク(透かし)がAI生成物に映りこむ事例→https //togetter.com/li/1957689 ストックサイトの有料写真素材を学習している 本来は料金を払わないと利用のできない写真素材である ↓midjourneyの例(2022年12月) 画像サムネイル用ダミー画像
https://w.atwiki.jp/ai-illust/pages/29.html
Netflixの生成AIにまつわる記事 Business Insider Netflixが「画像生成AIでアニメ制作」してわかったAIの限界…『犬と少年』で挑戦したもの https //www.businessinsider.jp/post-265291 Rest of world 『Anime artists are panicking over Netflix’s AI experiment』 NetflixのAI実験にアニメ作家が慌てふためく(DeepL翻訳) https //restofworld.org/2023/netflix-anime-ai-artists/
https://w.atwiki.jp/ai-illust/pages/28.html
生成AI学習元画像検索サイト https //haveibeentrained.com/ Search 5.8 billion images used to train popular AI art models Register an account to opt-out your images from Stable Diffusion V3 人気の AI アート モデルのトレーニングに使用される 58 億の画像を検索 アカウントを登録して、Stable Diffusion V3 から画像をオプトアウトします
https://w.atwiki.jp/sandbox2-wiki/pages/15.html
オブジェクトAIの項目 AIPath AIShape ForbiddenArea ForbiddenAreaで囲まれたエリアはAIが”ここは通れない”と認識し、避けて通るようになる。これがないとAIが壁に向かって歩き続けたり、岩に引っかかって死んだりする。主に建物の壁、歩いて登れない斜面、Brushオブジェクト、Vegetationオブジェクトではない、大きめの木や岩などに対して設ける。 (Brush、Vegetationの場合、AIRadiusの数値を大きくすることでAIが避けて通るようになるので、基本的に設定する必要はない) シングル用のカスタムマップを作成する場合、恐らくこのエリアの設定に多くの時間を費やすことになるだろう。 コンソールにai_DebugDraw=85をタイプすると、AIが登ることができないくらい急な領域が赤色で表示され 緑色のところは、上を歩こうとするとき滑るかもしれない領域が表示される。 ForbiddenBoundary AIが行動をする範囲を指定する。 これで囲んだ範囲から外にはAIが出られなくなる。 AINNavigationModifier 家などの中にAIが入るようにするときにForbiddenAreaの内側を囲む必要がある。ただし、出入り口の所だけForbiddenAreaより外側に出るようにする AIHorizontalOcclusionPlane AIPoint これの設定のところでタイプを変更できるところがあり、その種類は、以下のとおり ”Waypoint”Hide”Sce Hide”Entry/Exit”Exit-only”がある。 AIを建物の中入らせたい場合は、タイプをEntry/Exitにして入口のAINNavigationModifierより内側に設置する。 AIAnchor Combat_Hide_Spot 戦闘時にAIがこのスポットに”隠れる”ようになる。 その性質上、障害物の陰になる場所に設置するのがベター。 主にForbiddenAreaで囲んだ障害物に対して設置する。ForbiddenAreaで囲んでいない障害物に対しても機能するかどうかは不明。 向きがあるので、設置する際は方向を考慮して配置しよう。 AIReinforcementSpot SmartObject Jumping→jump1m20 このSmartObjectを設けた場所は、AIがジャンプで飛び越えるようになる。 名前に1m20とある通り、あまりにも高い障害物などは飛び越えることが出来ない。(配置の際に、ジャンプの開始点、着地点がシュミレートされ、表示される色がオールグリーンになるよう高さ、向きを調整して配置しないと機能しない) TagPoint AIの行動Job_PatrolLinearの時にAIが巡回ルートとして使用するポイント。名前を「AIの名前_P*」(*は0からの数字。小さい順に経由する)に設定すると番号を昇順に経由して動く。最終番号に到着したら降順に経由して移動する。 黄色い矢印はAIが到達したときに向く方向である?
https://w.atwiki.jp/zeke/
@wikiへようこそ ウィキはみんなで気軽にホームページ編集できるツールです。 このページは自由に編集することができます。 メールで送られてきたパスワードを用いてログインすることで、各種変更(サイト名、トップページ、メンバー管理、サイドページ、デザイン、ページ管理、等)することができます まずはこちらをご覧ください。 @wikiの基本操作 用途別のオススメ機能紹介 @wikiの設定/管理 分からないことは? @wiki ご利用ガイド よくある質問 無料で会員登録できるSNS内の@wiki助け合いコミュニティ @wiki更新情報 @wikiへのお問合せフォーム 等をご活用ください @wiki助け合いコミュニティの掲示板スレッド一覧 #atfb_bbs_list その他お勧めサービスについて 大容量1G、PHP/CGI、MySQL、FTPが使える無料ホームページは@PAGES 無料ブログ作成は@WORDをご利用ください 2ch型の無料掲示板は@chsをご利用ください フォーラム型の無料掲示板は@bbをご利用ください お絵かき掲示板は@paintをご利用ください その他の無料掲示板は@bbsをご利用ください 無料ソーシャルプロフィールサービス @flabo(アットフラボ) おすすめ機能 気になるニュースをチェック 関連するブログ一覧を表示 その他にもいろいろな機能満載!! @wikiプラグイン @wiki便利ツール @wiki構文 @wikiプラグイン一覧 まとめサイト作成支援ツール バグ・不具合を見つけたら? 要望がある場合は? お手数ですが、メールでお問い合わせください。
https://w.atwiki.jp/aiwar/pages/263.html
ステータス 解説 AI惑星で見られる大要塞。移動能力はないが、長大な射程と非常に強力な火力、そして圧倒的な耐久力を持つ。効率は悪いものの、戦闘外での自己修復能力も備える。 要塞の共通的な弱点として、 Polycrystal装甲へのダメージは100分の1にまで低下する。 扱い方 通常のAI Fortressの最上位版とも言える存在。ただし性質は一部異なり、単発の威力こそMark Iレベルながら乱射数と発射間隔で圧倒し、さらには恐ろしく長い射程と凶悪な防御力を持つ。 とにかく影響範囲が凄まじく、惑星に入った時点ですでに射程内に捉えられていることが多い。弱点は通常の要塞と変わらないのでBomberなどで叩くのが一番だが、とにかく硬いので護衛への対処も考えておかないと被害は抑えられないだろう。 もちろん、使えるならArtillery GolemやSpirecraft Penetratorなどの投入は躊躇うべきでない。こんな化け物に馬鹿正直に挑んでやったところで、それで得をするのはAIのほうである。 なお、通常の要塞と違いサプライなしでも稼動する。よって無力化した上で叩くと言うような小細工は通じない。
https://w.atwiki.jp/burn/pages/32.html
更新履歴 2008/1/22 クライアント不具合の告知により、使用しているLuaコマンドの一部が不具合と認定されました。今後の更新予定はありません。 2008/1/5 Ver 2.11 ホムtalkでER突入地点を区別できるようにしました。 IRC吐き出し用のテキストファイルを追加しました。 ER突入地点は無敵状態となるため、アシッドスキルを使用しないように修正しました。 (AI.lua/DataMap.lua/AI2IRC.txt) 2007/11/8 Ver 2.10 捕捉対象が複数いた場合、全員を確認して出力するようになりました。 2007/8/14 Ver 2.01 「対象をALT+右クリック」で対象キャラクターIDを記録できるようになりました。 AI.luaのエラーを修正しました。 2007/8/12 Ver 2.00 一般公開
https://w.atwiki.jp/recklesstide/pages/17.html
自由を求める人々の溜り場。 勢力長は龍凪零慈。基本的結構厳しい勢力。 テンペストなりの人物紹介。 龍凪 零慈 テンペストを纏める長。基本的に放任主義。 取り敢えず一緒に笑っていられるような人を求め、人材探し中。 乙姫 本名ENELIS。副勢力長兼唯一のツッコミ要員。 恐らく現段階ではエースに為り得る戦力であり、人望は厚い。 十六夜 剣 ソードオブマスター。現在色々あって失踪中。 ラクス・クライン 二人目の女性キャラ。まだ入隊した日は浅いものの、期待の新星。
https://w.atwiki.jp/aiwar/pages/23.html
基本 AI Orbital Command Station Warp Gate 副官惑星 AI Gravitic Command Station AI Lance Command Station AI Laser Command Station AI Missile Command Station AI MLRS Command Station AI Munitions-Boosting Command Station AI Needler Command Station AI Railcannon Command Station AI Spider Command Station AI Tachyon Command Station AI Translocator Command Station AI Troop-Accelerationg Command Station 特殊 AI Modular Fortress Command Station 奪取可能 Advanced Research Station Advanced Factory Advanced Starship Constructor Core Fabricator Experimental Fabricator Experimental Starship Fabricator Core Turret Controller Distribution Node Zenith Reserve Zenith Power Generator Captive Human Settlement Gravity Drill Station Spire Archive Ion Cannon Orbital Mass Driver Core Warhead Interceptor Counter Spy Planetary Armor Booster Planetary Armor Inhibitor Radar Jammer Attrition Emitter Black Hole Machine 防衛設備 AI Fortress AI SuperFortress AI Force Shield Generator AI Eye Raid Engine 生産施設 Dire Guardian Lair
https://w.atwiki.jp/cnsting/pages/16.html
AIシステム AIシステムとAIとの立ち回り方 AIレベル指数 ※人間(中身入りプレイヤー)の指数を 1 とする。 研修兵 0.6 出会い頭の場合、研修兵に待機時間がある(0.8~2秒ほど) ただし上記の状態から逃げるなりすると「迎撃トリガー作動」 トリガー作動中は指数が0.9ほどまで上がる。 トリガー作動中に姿を出してしまうと、先攻をされる可能性あり。 遠くまで逃げた場合はトリガーは解除されるが、近くで隠れるなどをしていても、トリガーは解除されず。 何度も倒していると、敵が倒した主の位置を学習し、先制攻撃をしてくる模様。 一度撃ち込んだ位置からのエイム修正はされておらず、弾が全く当たらない場合がある。 兵士 0.8 出会い頭での待機時間が研修兵とくらべて全く無くなっている。 迎撃トリガー作動中は作動中の研修兵と対して変わらない。 多少マニアックな武器を使ってくるようになるが、専門的分野の武器は全く使わない。 エイム修正は研修兵よりも上がっているものの、やはり人間の動作には敵わない所がある。 このレベルからグレネードを投げてくる。 専門家 1.1 待機時間は無し、視野に入った敵を一瞬にして迎撃する。 より強力な武器を使ってくる確立が増える。 クリアリングもするが、特殊部隊よりは鈍く、後ろをとる事はできる。 特殊部隊 1.2 待機時間なし、視野に入った敵を一瞬にして迎撃する、専門家より視野は広い。 強力な武器にこだわるようになるため、単純に強い武器持ちばかりになる、専門武器の確立も増える。 クリアリングの間隔が早いため、後ろをとるのは至難の業。 ジャンプで撃とうが頭に当ててくる化け物になっている。 ナイフ戦では馬鹿みたいに生き残る。 AI戦攻略法 投擲武器を活用した攻略法 AIにフラッシュを投げ込むと、以下のようになる。 安全地帯(角)に非難し、しゃがみこむ トリガーを引いてがむしゃらに射撃 ジャンプ 以上のような状態になった場合、AIには敵の姿は見えておらず、安易に攻撃が可能。 AI付近にスモークを投げ入れると、数秒間は壁としての役割にもなる。 稀に、AIがスモーク内に進入するが、敵の姿はあまり確認できない模様。 フラッシュよりも効果が短時間なのが短所。 移動出来ない場所からの攻撃。 主にナイフ戦では有利にはなるかもしれない。 AIが全く近づかない場所があったりする、主にハシゴなど。 ハシゴを利用してでのナイフハメが可能であるが、銃撃戦ではあまり意味がない。